1 S3 백만송 데이터 → EC2 작업흐름 1 2

빅데이터(백만송 데이터)를 분석하기 위해서 빅데이터는 클라우드 AWS S3에 저장하고, 이를 EC2에 설치한 스파크 클러스터를 통해 분석작업을 수행한다. 이를 위해서 다음과 같은 작업흐름을 갖출 수 있다.

  1. S3 브라우저와 같은 FTP 프로그램을 이용하여 S3에 데이터를 전송한다.
  2. EC2 인스턴스에 우선 로컬 스파크 클러스터를 구축한다.
  3. 로컬 PC에서 EC2 인스턴스에 RStudio 서버 IDE 로 접속하여 분석작업을 수행한다.

백만송 S3 업로드

1.1 한걸음 더 들어갑니다.

한걸음 더 들어가 S3 버킷에 데이터가 저장되어 있는 상태에서 데이터 분석에 필요한 연산작업을 EC2 인스턴스를 생성시켜 이를 통해서 추진하는 것이다. EC2 인스턴스에 명령을 내리기 위해서 외부 로컬 컴퓨터에서 웹브라우저를 통해 접속하게 된다.

S3-EC2-terminal-toolchain

2 EC2에서 S3 접근 3

EC2에서 S3로 접근하려면 aws.s3 팩키지를 사용한다. S3에 접근하기 위해서 AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY, AWS_DEFAULT_REGION을 설정한다. 설정된 내용이 제대로 되었는지는 bucketlist() 함수로 확인되면, s3read_using() 함수를 사용해서 CSV 파일을 EC2 컴퓨터에 데이터프레임으로 가져온다.

S3 → 로컬 RStudio IDE AWS S3 저장소 인증를 참조하여 동일하게 AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY, AWS_DEFAULT_REGION을 설정하여 config.yml 파일에 담아둔다. 인증키를 활용하여 작은 데이터 iris.csv 파일 뿐만 아니라 YearPredictionMSD.txt 파일도 불러온다.

tictoc() 팩키지를 설치하여 불러오는데 소요된 시간도 확인한다. YearPredictionMSD.txt 파일크기는 약 500MB 정도 크기를 갖는다.

AWS EC2로 S3 버킷 백만송 데이터 불러오기