딥러닝이 왜 그렇게 잘 수행되는지에 대한 생각
왜 Deep Learning은 다른 머신 러닝 방법보다 성능이 우수합니까? 세 가지 이유를 제공합니다 : 교육 과정에서의 특징 추출 통합, 매우 큰 데이터 세트의 수집, 기술 개발
다른 머신 러닝 방법론에 비해 딥러닝의 우월한 성능은 최근 여러 포럼과 잡지에서 논평되었습니다. 이 우월의 근거가 되는 세 가지 이유에 대해 알아보겠습니다.
이 문제에 대해 논평 한 최초의 사람은 아니며, 마지막이되지 않을 것이라고 확신합니다. 그러나 딥러닝의 성공 뒤에 있는 실제적인 이유를 고려하고자합니다. 그러므로 이론적인 배경을 찾고 있다면 딥 러닝 학문에서 찾는 것 좋을 것입니다. 실제적인 분류 문제와 응용을 다루기 위한 유용한 기술로 딥 러닝을 전환시키는 실용적인 측면에 관해서 여기서 논평하고자한다. 그러나 모든 문제와 응용 프로그램이 아닙니다. 딥 러닝 방법은 이전에는 벡터 머신 및 랜덤 포레스트 지원과 같이 궁극의 패턴 인식 기술로 나타났습니다. 그러나 No Free Lunch Theorem을 기반으로 가능한 모든 문제에 대한 최적의 알고리즘은 없습니다. 따라서 분류 성능 평가를 염두에 두는 것이 좋습니다. 성능 평가는 머신 러닝 응용 프로그램의 기본 단계를 구성하며 아래에 설명 된대로 딥 러닝 성공과 직접 연결됩니다.
Deep Learning 성공의 첫 번째 중요한 이유는 훈련 과정에서 피쳐 추출을 통합하는 것입니다.
몇 년 전만 해도 패턴 인식은 분류 단계에 집중되었습니다. 따라서 특징 추출은 어떻게든 독립적인 문제로 취급되었습니다. 장인의 수작업과 전문 지식에 기반한 부분이었습니다. 개발 팀의 일원으로 해결하기를 원하는 주제에 대한 전문가를 초대했습니다. 이 전문 지식은 특정 문제에서 관심있는 기능을 선택하는 데 사용되었습니다. 반대로 딥 러닝 방법은 선형적인 관심 대상을 설정하지 않습니다. 딥 러닝 방법은 피쳐 추출과 분류 단계를 함께 훈련시킵니다. 예를 들어 이미지 필터 또는 프리미티브 세트는 이미지 인식을 위해 분류 네트워크의 첫 번째 레이어에서 트레이닝됩니다. 이것은 몇 년 전에 Brain-Computer Interface 커뮤니티에서 이미 제안 된 개념이었습니다. 즉, 각 BCI 사용자에게 피쳐 추출 단계를 적용하기 위해 CSP (Common Spatial Filters)를 교육했습니다.
더욱이 Deep Learning은 대용량 데이터 세트를 수집하고 개발 프로세스에서 성능 평가를 체계적으로 통합하기 때문에 이전에는 해결되지 않은 문제에 성공했습니다.
동일한 동전의 양면입니다. 대규모 데이터 세트를 확보 한 후에는 수동 절차를 통해 성능 평가를 수행 할 수 없습니다. 가능한 한 프로세스를 자동화해야합니다. 자동화는 교차 유효성 검사 단계의 구현을 의미하므로 개발 프로세스에 통합됩니다. 대용량 데이터 집합 수집 및 성능 평가는 데이터 분석 과제 및 플랫폼의 보급에서도 매우 훌륭한 지원을 제공합니다. 첫 번째 도전과 경쟁은 가장 중요한 컴퓨터 비전 및 패턴 인식 컨퍼런스를 중심으로 구성되었습니다. 예를 들어 PASCAL이나 ImageNet과 같은 문제가 있었습니다. 이러한 문제는 처음으로 대형 이미지 데이터 세트를 계산할 수 있게 해주 었으며, 가장 중요한 것은 알고리즘의 체계적인 성능 평가를 위한 관련 접지 트러스트 레이블과 관련이 있었습니다. 또한 성능 평가는 테스트 세트 진상 사실에 대해 눈이 멀었습니다. 따라서 성능을 높이기 위해 매개 변수를 조정할 수 없었습니다. 같은 도전 과제 개념이 데이터 분석 플랫폼에 적용되었습니다. 가장 인기있는 것은 Kaggle이지만 유일한 것은 아닙니다. DrivenData, InnoCentive 등도 있습니다. 데이터 컨테스트 플랫폼은 동일한 개념을 사용합니다. 즉, 교육용 데이터 세트와 테스트 용 블라인드 데이터 세트를 제공하고 다른 경쟁 그룹 간의 성과를 비교할 수있는 플랫폼을 제공합니다. 이것은 일반적으로 데이터 과학, 특히 딥 (Deep) 러닝을 위한 좋은 놀이터입니다.
마지막 생각은 이전의 생각과 밀접한 관련이 있습니다. 위에서 언급한 혁신은 기술 개발 없이는 불가능했을 것입니다.
메모리와 스토리지 가격의 감소는 증가하는 볼륨의 데이터 세트를 저장할 수있게 합니다. 잘 알려진 무어의 법칙은 계산 능력의 놀라운 증가를 설명합니다. 마지막으로 네트워크 기술의 폭발은 메모리와 계산 능력에 대한 액세스를 확실히 민주화했습니다. 클라우드 저장소 및 하이 퍼포먼스 컴퓨팅은 구현된 아키텍처의 복잡성, 즉 고려된 네트워크 계층 및 노드의 수를 기하 급수적으로 증가시킵니다. 지금까지 이 방법이 가장 성공적인 방법으로 입증되었습니다.
'SW > 인공지능' 카테고리의 다른 글
인공지능 : 딥 러닝 : 도전 과제, 극복 과제, 단점 (0) | 2019.07.28 |
---|---|
인공지능 : 딥 러닝 : 강점, 장점 (0) | 2019.07.27 |
인공지능 : Text to Image : 텍스트를 이미지로 변환 : 기술, 원리 (1) | 2019.07.24 |
인공지능 : image caption : 원리, 개념, 방법 (0) | 2019.07.23 |
인공지능 : LSTM (Long Short Term Memory) : 개념, 원리, 방식 (0) | 2019.07.22 |