트렌드 기존 데이터웨어 하우스 환경이 빅 데이터 분석 요구를 충족하기 위해 어떻게 가장 잘 확장 할 수 있습니까?

기존 데이터웨어 하우스 환경이 빅 데이터 분석 요구를 충족하기 위해 어떻게 가장 잘 확장 할 수 있습니까?

Anonim

큐:

기존 데이터웨어 하우스 환경이 빅 데이터 분석 요구를 충족하기 위해 어떻게 가장 잘 확장 할 수 있습니까?

ㅏ:

개별 데이터웨어 하우스 프로젝트는 사례별로 평가해야합니다. 일반적으로 기존의 데이터웨어 하우스 디자인을 확장하여 빅 데이터 분석을보다 잘 처리하려는 경우 수행해야 할 작업을 파악하는 핵심 프로세스가 있습니다. IT 전문가는이를 "확장"또는 "확장"이라고 부를 수 있습니다.

웨비나 : Big Iron, Big Data 만나기 : Hadoop & Spark로 메인 프레임 데이터 해방

여기에 등록하십시오

확장에는 일반적으로 충분한 처리 능력 확보, 충분한 양의 메모리 확보 및 비즈니스가 처리 할 더 큰 데이터 세트를 모두 처리 할 수있는보다 강력한 서버 활동 수용이 포함됩니다. 반대로, 수평 확장은 서버 하드웨어 클러스터를 수집하고이를 공동 빅 데이터로 네트워킹하는 것을 의미합니다.

일부 IT 전문가들은 Apache Hadoop 및 기타 널리 사용되는 빅 데이터 도구 및 플랫폼에서 가장 일반적인 방법은 하드웨어를 수평 확장하고 클러스터링하여 원하는 효과를 얻는 것이라고 제안했습니다. 그러나 오늘날의 기술로 인해 데이터웨어 하우스는 서버에 리소스를 추가하는 조달 전략을 사용하여 (예 : 더 많은 수의 프로세싱 코어와 더 많은 RAM을 확보하는 등) 확장 할 수 있다고 지적합니다.

데이터웨어 하우스는 확장 또는 확장에 관계없이 더 큰 데이터 워크로드를 처리 할 수 ​​있도록 추가 물리적 하드웨어 자산이 필요합니다. 또한 추가 인력 관리가 필요하므로 내부 팀을위한 더 많은 교육이 필요합니다. 새로운 빅 데이터 에코 시스템에 적합하도록 기존 레거시 시스템에 더 큰 데이터 워크로드가 어떤 종류의 스트레스와 압력을 가할 것인지를 결정하기 위해 많은 계획이 프로젝트에 들어가야합니다. 가장 큰 문제는 스토리지 센터로의 업그레이드가 필요한 스토리지 병목 현상과 해결되지 않은 경우 초기 시스템을 방해 할 수있는 다른 종류의 성능 병목 현상입니다.

기존 데이터웨어 하우스 환경이 빅 데이터 분석 요구를 충족하기 위해 어떻게 가장 잘 확장 할 수 있습니까?