'Big Data'에 해당되는 글 23건

  1. 2015/01/30 용비 (Chapter 1) 03. Spark Core, SQL
  2. 2015/01/29 용비 (Chapter 1) 02. Unified Stack
  3. 2015/01/28 용비 01. Preface

(Chapter 1) 03. Spark Core, SQL

Spark 2015/01/30 15:29 용비

Spark Core


Spark Core task scheduling, memory management, fault recovery, storage system interacting등을 담당하는 component 포함하여 Spark 기본 기능을 제공한다.


또한 Spark Core Spark main programming abstraction RDD (Resilient Distributed Dataset) 정의한 API 홈이기도 하다. RDD 병렬 처리할 있는 많은 computing node 분산되어 있는 아이템들의 집합을 나타낸다.


Spark Core에서는 이런 collection들을 다룰 있는 많은 API 제공한다.


Spark SQL


Spark SQL Apache Hive SQL 변형하여 제공하는 Hive Query Language (HiveQL)처럼 SQL 통해 Spark interacting하는 것을 지원한다. Spark SQL Spark RDD database table 표현하고, Spark operation으로 SQL query 변환한다.


Spark SQL interface 제공하는 것을 넘어, Spark SQL 개발자가 하나의 application안에서 SQL query 섞어서 Python, Java, Scala RDD 지원하는 데이터 처리 프로그램을 개발할 있게 한다.


Spark stack 나머지 부분에 의해 제공되는 풍부하고 유연한 computing environment 밀접한 통합은 다른 오픈 소스 data warehouse tool과는 다른 부분이다. Spark SQL 버전 1.0 이후로 포함되어 있다.


Shark Spark SQL보다 먼저 만들어진 UC 버클리 프로젝트이다. Spark SQL 위에서 동작하도록 포팅되었다. Shark Spark Apache Hive 대체하여 동작하도록 추가 기능을 제공한다. 외부 graphing and data exploration tool 쉽게 연결하도록 하는 JDBC 서버 뿐만 아니라 HiveQL shell 포함하고 있다.

받은 트랙백이 없고, 댓글이 없습니다.

댓글+트랙백 RSS :: http://www.yongbi.net/rss/response/649

(Chapter 1) 02. Unified Stack

Spark 2015/01/29 14:18 용비

1. Spark 이용한 Data Analytics 대한 소개


여기서는 Apache Spark 대해서 간단하게 살펴보고자 한다. Apache Spark 익숙하다면 다음 장으로 건너 뛰어도 된다.


Apache Spark이란?

Apache Spark 빠르고 범용적인 목적으로 디자인된 Cluster Computing Platform이다.


속도측면에서 Spark Interactive Query Streaming Processing 포함하여 다양한 형태의 계산을 효율적으로 수행할 있도록 MapReduce Model 확장했다. 거대한 데이터를 처리하는데 있어서 속도는 중요하다. Spark 연산을 메모리에서 수행하기 때문에 Disk 기반으로 수행하는 MapReduce보다 훨씬 빠르다.


범용성 측면에서 Spark 예전 분산 시스템에서 요구되었던 여러 기능들 - Batch Application, Iterative Algorithm, Interactive Query, Streaming - 모두 수용했다. 하나의 엔진에서 모든 기능들을 지원함으로써 Spark Data Analysis Pipeline Production에서 요구하는 서로 다른 Processing Type 쉽고 싸게 결합할 있다. 그리고 서로 다른 Tool 유지/관리하는 비용을 줄일 있다.


Spark Python이나 Java, Scala, SQL 통해서 쉽게 접근할 있도록 API 제공한다. Hadoop Cluster상에서 Spark 구동할 수도 있고, 어떤 형태의 Hadoop Data Source에도 접근할 있다.


Unified Stack

Spark Project 여러 개의 component 밀접한 관계가 있다. Spark Core "Computational Engine"이다. Spark Core는 많은 worker machine 혹은 computation cluster상의 computational task 이루어진 Scheduling, Distributing, Monitoring Application들을 관리한다.

Spark Core Engine 빠르고 범용적이기 때문에 SQL이나 Machine Learning 같은 강력한 component들을 제공한다.

이런 component들은 Project에서 Spark 라이브러리로 추가되어 밀접하게 연동하도록 디자인 되어 있다.


서로 밀접하게 연관되어 연동하는 것에는 가지 유익한 점이 있다.


첫째, 모든 라이브러리들은 하위 layer에서 개선이 가능하다. 예를 들면 Spark Core Engine Optimization 추가되면, SQL Machine Learning 라이브러리의 성능이 자동적으로 좋아진다.


둘째, 운영비용이 적게 든다. 개별적으로 있을 때는 5~10개의 서버를 운영해야 하지만, 밀접하게 엮여 있는 시스템은 하나만 운영하면 된다. 비용에는 유지, 테스트, 지원 등이 포함된다. 새로운 component Spark 추가될 , 즉시 새로운 component 사용할 있다.


끝으로, 밀접한 연관관계로 엮어 놓은 것의 가장 장점은 서로 다른 처리를 요구하는 기능들을 결합하여 즉시 Application 반영할 있다는 것이다. 예를 들어, Streaming Source로부터 데이터를 받아서 real time으로 데이터를 구분하는 machine learning 이용하여 Spark에서 Application 개발할 있다. 동시에 analyst real time으로 비구조적인 log file로부터 SQL 통해 결과를 조회할 있다. 숙련된 data engineer 거기에 더해 특정 분석을 수행하기 위하여 Python Shell 같은 데이터에 접근할 수도 있다. 다른 사람들은 standalone batch application 통해 데이터 접근이 가능하다. 무엇이건 간에, IT team 하나의 software stack 관리하면 된다.

받은 트랙백이 없고, 댓글이 없습니다.

댓글+트랙백 RSS :: http://www.yongbi.net/rss/response/648

01. Preface

Spark 2015/01/28 16:06 용비
Parallel Data Analysis (병렬 데이터 분석)는 지속적으로 증가해 왔고, 각 분야의 전문가들은 이 분야에 더 쉽게 이용할 수 있는 툴을 찾고 있었다.
Apache Spark는 MapReduce를 확장하고 일반화시켜서 이 분야에 가장 유용한 툴 중에 하나로 빠르게 자리매김했다.

Spark는 다음 3가지 주요 이점을 제공한다.

첫째, 사용하기 쉽다. High-Level API를 통해 LapTop에서 계산하고자 하는 컨텐츠에 대한 Application을 개발할 수 있다.

둘째, Spark는 빠르다. 복잡한 알고리즘을 적용하여 Interactive한 작업을 빠르게 수행할 수 있다.

셋째, Spark는 범용 엔진이다. 여러 가지 형태의 계산 (SQL, Text Processing, Machine Learning, Graph Processing)을 수행할 수 있다.

이러한 특징들로 인해 Big Data를 배우는 시작점으로 Spark를 선택한 것은 탁월한 선택이다. 이 책을 통해서 Spark를 다운로드 및 실행, Interactive하게 API를 사용하는 방법, 수행 가능한 Operation과 분산처리 등에 대해서 상세하게 배울 것이다.

마지막으로 Spark는 라이브러리를 추가할 수 있다. 그리고 Spark에서 제공하는 SQL, Machine Learning, Streaming Processing, Graph Analytics 라이브러리를 사용하는 방법을 배울 것이다.

책은 Data Scientists and Engineer들을 대상으로 한다. 그 이유는 Spark 이용하면 그들이 있는 문제의 범위를 확장하여 가장 많은 유익을 얻을 있기 때문이다.

Data Scientist들 통계학적 지식을 기반으로 Spark를 이용하면 하나의 Machine 적합한 문제를 넘어설  있다. Engineer들은 Spark 이용하여 어떻게 범용 분산 프로그램을 작성하여 어플리케이션을 동작할 있는지 배울 있다.

Engineer Data Scientist 책을 통해 서로 다른 내용들 배우지만, 그들의 분야에서 Spark 이용하여 커다란 분산 데이터 관련된 문제를 해결할 있다.

Data Scientist 의문점에 대한 답이나 Data에서 model 만드는 것이 관심이 있다. 그들은 종종 통계학적, 수학적 배경을 갖고 있다. 그리고 Python이나 R, SQL 같은 툴들을 사용한다.
책에서는 Spark에서 제공하는 Machine Learning이나 advanced analytics 라이브러리의 overview뿐만 아니라 Python이나 SQL 예제들 포함시켰다.
만약, 여러분이 Data Scientist라면 책을 읽고 나서 커다란 규모의 문제를 더 빠르게 해결하고자 할 동일한 접근방법을 적용할 있을 것이다.

만약 당신이 Engineer라면 책을 통해서 Spark Cluster 구성하는 방법, Spark Shell 사용하는 방법, 병렬 연산 처리를 위한 Spark 어플리케이션 작성하는 방법을 배울 것이다. Hadoop 익숙하다면, HDFS 어떻게 상호연동하는지, Cluster 어떻게 관리하는지에 대해서 더 쉽게 시작할 수 있다. 하지만, 여기서는 Hadoop에 대해서는 개념적인 내용만 다룰 것이다.

책에 있는 모든 예제 코드는 GitHub 있다.
예제코드는 Java, Python, Scala 짜여져 있다.
받은 트랙백이 없고, 댓글이 없습니다.

댓글+트랙백 RSS :: http://www.yongbi.net/rss/response/647