1 S3 백만송 데이터 → EC2 작업흐름 1 2

빅데이터(백만송 데이터)를 분석하기 위해서 빅데이터는 클라우드 AWS S3에 저장하고, 이를 EC2에 설치한 스파크 클러스터를 통해 분석작업을 수행한다. 이를 위해서 다음과 같은 작업흐름을 갖출 수 있다.

  1. S3 브라우저와 같은 FTP 프로그램을 이용하여 S3에 데이터를 전송한다.
  2. EC2 인스턴스에 우선 로컬 스파크 클러스터를 구축한다.
  3. 로컬 PC에서 EC2 인스턴스에 RStudio 서버 IDE 로 접속하여 분석작업을 수행한다.

백만송 S3 업로드

1.1 한걸음 더 들어갑니다.

한걸음 더 들어가 S3 버킷에 데이터가 저장되어 있는 상태에서 데이터 분석에 필요한 연산작업을 EC2 스파크 인스턴스를 생성시켜 이를 통해서 추진하는 것이다. EC2 스파크 인스턴스에 명령을 내리기 위해서 외부 로컬 컴퓨터에서 웹브라우저를 통해 접속하게 된다.

S3-EC2-terminal-toolchain

2 EC2 스파크 → S3 백만송 데이터 작업흐름 3 4

2.1 스파크 EC2 설치

자바는 설치해야 되고, sudo apt-get install openjdk-8-jdk 명령어를 통해서 간단히 설치할 수 있다. 그리고 나서 sparklyr 팩키지를 설치하고 spark_install(version = "2.3.2") 명령어로 스파크를 설치하여 R과 연결까지 쉽게 할 수 있다. RStudio 엔지너어들이 수년동안 노력하면서 버그를 잡아낸 결과 단 한줄의 명령어로 문제를 쉽게 해소할 수 있게 되었다. spark_connect() 함수로 스파크에 연결점을 생성하고 iris 데이터프레임을 copy_to() 명령어로 던져넣게 되면 스파크에 iris RDD 데이터를 분석할 수 있게 된다. src_tbls(sc) 명령어로 분석가능한 RDD가 무엇인지 확인할 수 있고 dplyr 동사로 스파크 클러스터에 올라온 데이터를 분석할 수 있게 되었다.