오디오 hadoop을 사용하여 빅 데이터를 분석하는 방법을 배우려면 어떻게해야합니까?

hadoop을 사용하여 빅 데이터를 분석하는 방법을 배우려면 어떻게해야합니까?

Anonim

큐:

빅 데이터를 분석하기 위해 Hadoop을 사용하는 법을 어떻게 배울 수 있습니까?

ㅏ:

Hadoop으로 알려진 Apache 소프트웨어 세트는 빅 데이터 세트를 처리하는 데 널리 사용되는 리소스가되고 있습니다. 이러한 유형의 데이터 처리 소프트웨어 프레임 워크는 특정 종류의 데이터 프로젝트를보다 효율적으로 만들 수있는 디자인을 기반으로 특정 방식으로 데이터를 집계 할 수 있도록하기 위해 만들어졌습니다. 그러나 Hadoop은 대규모 데이터 세트를 처리하기위한 많은 도구 중 하나 일뿐입니다.

Hadoop으로 빅 데이터 분석을 배우는 첫 번째이자 가장 기본적인 방법 중 하나는 Hadoop의 최상위 구성 요소 중 일부와 그 기능을 이해하는 것입니다. 여기에는 특정 종류의 네트워크 설정에 적용 할 수있는 Hadoop YARN "자원 관리 플랫폼"과 빅 데이터 세트에 적용되는 Hadoop MapReduce 기능 세트가 포함됩니다. HDFS (Hadoop Distributed File System)도있어 분산 시스템에 데이터를 저장하여 빠르고 효율적으로 색인화하거나 검색 할 수 있습니다.

이 외에도 Hadoop에 익숙해지기를 원하는 사람들은 소프트웨어를 관련 수준에서 설명하는 전문가를 위해 개별적으로 게시 된 리소스를 볼 수 있습니다. 개인 블로그의 Chris Stucchio가 제공 한이 예는 Hadoop 및 데이터 규모에 대한 훌륭한 정보를 제공합니다. 기본 테이크 아웃 중 하나는 Hadoop이 필요 이상으로 일반적으로 사용될 수 있으며 개별 프로젝트에 가장 적합한 솔루션이 아닐 수 있다는 것입니다. 이러한 종류의 리소스를 검토하면 전문가가 특정 시나리오에서 Hadoop 사용에 대한 자세한 내용을 익힐 수 있습니다. Stucchio는 하둡의 기능을 특정 물리적 작업과 관련시키기위한 은유도 제공합니다. 여기서는 라이브러리의 책 수를 세는 반면, Hadoop 함수는 해당 라이브러리를 여러 섹션으로 나누어 하나의 집계 데이터 결과에 혼합 된 개별 수를 제공 할 수 있습니다.

전문가가 Hadoop 및 빅 데이터에 대한 응용 프로그램에 대해 더 자세히 배울 수있는보다 심도 깊은 방법은 특정 교육 리소스 및 프로그램을 이용하는 것입니다. 예를 들어, 원격 교육 세션의 주요 공급 업체 인 온라인 학습 회사 Cloudera는 Hadoop 사용 및 유사한 유형의 데이터 처리와 관련하여 여러 가지 흥미로운 옵션을 제공합니다.

hadoop을 사용하여 빅 데이터를 분석하는 방법을 배우려면 어떻게해야합니까?