본문 바로가기

Bigdata Hadoop

라즈베리파이 5 클러스터를 구축하고 싶으신가요? 라즈베리파이 5 클러스터를 구축하고 싶으신가요?  누르갈리예프 샤키자트는 라즈베리 파이 5 여러 대로 (기술 용어로) 모두 부수어 마법의 Ceph 클러스터를 만들었습니다. 그리고 보세요, 모든 것이 다채롭고 화려합니다! 누갈리예프는 이 프로젝트가 특히 기술에 정통한 사람들을 위한 고급 프로젝트이며, 완성하는 데 약 6시간이 걸렸다고 조언합니다.    라즈베리 피스는 1Gbit 스위치를 통해 사설 네트워크로 연결되며, 3개의 256GB SSD 드라이브가 스토리지를 제공합니다. Ceph는 오픈 소스 소프트웨어 정의 스토리지 솔루션으로, 확장성이 뛰어나 단일 클러스터 내에서 여러 유형의 스토리지를 위한 인터페이스를 제공합니다.    누르갈리예프가 모든 것을 조립하고 라즈베리 파이 4를 씬 클라이언트로 사용하여..
처음부터 라즈베리 파이 하둡/스파크 클러스터 구축하기 처음부터 라즈베리 파이 하둡/스파크 클러스터 구축하기  소개 클라우드 컴퓨팅이 어떻게 작동하는지 더 잘 이해하기 위해 저와 반 친구 Andy Lin은 데이터 엔지니어의 세계를 깊이 파고들기로 했습니다. 저희의 목표는 Spark Hadoop Raspberry Pi Hadoop 클러스터를 처음부터 만드는 것이었습니다. 저희가 취한 단계를 안내하고 프로세스 전반에 걸쳐 발생할 수 있는 오류를 해결해 드리겠습니다. 본 포스팅의 원문 링크를 따라가세요. 위의 그림은 저희가 구매한 구성품을 보여줍니다: Raspberry Pi 4 *3, SD 카드 *3, 인터넷 케이블 *3, 충전 케이블 *3, 스위치 *1  1단계: Raspberry Pi 설정 운영체제 설치 Raspbian이라는 Debian 기반 OS를 사용하기로..
데이터 과학/빅데이터 실험실 - 4부 중 4편: 3노드 클러스터의 Ubuntu를 통한 Kafka와 Zookeeper 데이터 과학/빅데이터 실험실 - 4부 중 4편: 3노드 클러스터의 Ubuntu를 통한 Kafka와 Zookeeper  데이터 과학/빅데이터 실험실을 Raspberry Pi 4 또는 VM 클러스터에서 Hadoop, Spark, Hive, Kafka, Zookeeper 및 PostgreSQL로 조립하기  서문은 같아 생략. 모든 구성 파일은 1편의 [1]에서 확인할 수 있습니다:  4부분으로 구성된 원 문서의 번역 링크를 아래에 올립니다. 글의 출처인 처음 문서의 링크는 1편 아래 참고 문서에 있습니다. 즐 개발하세요. Part 1: Introduction, Operational System and NetworkingPart 2: Hadoop and SparkPart 3: PostgreSQL and Hive..
데이터 과학/빅데이터 실험실 - 4부 중 3부: 3노드 클러스터의 Ubuntu를 통한 Hive 및 Postgres 데이터 과학/빅데이터 실험실 - 4부 중 3부: 3노드 클러스터의 Ubuntu를 통한 Hive 및 Postgres  데이터 과학/빅데이터 실험실을 Raspberry Pi 4 또는 VM 클러스터에서 Hadoop, Spark, Hive, Kafka, Zookeeper 및 PostgreSQL로 조립하기  서문은 다른 포스팅과 같다. 모든 구성 파일은 [1]에서 확인할 수 있습니다:  4부분으로 작성된 문서의 링크를 아래에 올립니다. 문서 출처인 원 문서의 링크는 1편 아래 참고 문서에 있습니다.  Part 1: Introduction, Operational System and NetworkingPart 2: Hadoop and SparkPart 3: PostgreSQL and HivePart 4: Kafka,..
AB BLE 게이트웨이 V4 사용자 가이드 성능 스캔 기간 = 1초이더넷 와이어로 초당 최대 210개의 광고 데이터 업로드WiFi 연결로 초당 최대 150개의 광고 데이터 업로드 데이터 형식 MessagePack 형식의 Gateway V4 게시 데이터. MessagePack은 효율적인 바이너리 직렬화 형식입니다. JSON과 같은 여러 언어 간에 데이터를 교환할 수 있습니다. 하지만 더 빠르고 작습니다. MessagePack을 구문 분석하기 위한 프로그래밍 언어용 라이브러리를 더 많이 얻을 수 있습니다. 키 디코딩된 데이터는 다음 키가 있는 사전입니다. v - 펌웨어 버전mid - 메시지 IDtime - 부팅 시간ip - 게이트웨이의 IPmac - 게이트웨이의 MAC 주소rssi - 게이트웨이의 WiFi 연결 RSSI. 펌웨어 v1.5.0에서 Wi..
데이터 과학/빅데이터 실험실 - 4부 중 2부: 3노드 클러스터에서 Ubuntu 20.04를 통한 Hadoop 3.2.1 및 Spark 3.0.0 사용하기 데이터 과학/빅데이터 실험실 - 4부 중 2부: 3노드 클러스터에서 Ubuntu 20.04를 통한 Hadoop 3.2.1 및 Spark 3.0.0 사용하기   데이터 과학/빅데이터 실험실을 Raspberry Pi 4 또는 VM 클러스터에서 Hadoop, Spark, Hive, Kafka, Zookeeper 및 PostgreSQL로 조립하기  서두는 같다.  면책 조항: 이 글은 누구나 무료로 사용할 수 있도록 제공되며 책임은 본인에게 있습니다. 모든 출처를 인용하는 데 주의를 기울였지만 누락된 부분이 있다고 생각되면 메모를 보내주세요. 소프트웨어 버전에 따라 종속성 때문에 다른 방식으로 작동할 수 있으므로 처음 시도할 때 사용한 것과 동일한 버전을 사용하는 것이 좋습니다. 모든 구성 파일은 [1]에서 확..
BigData-02 하둡은 자바 기반 오픈소스 프로그램이기 때문에, 자바를 우선적으로 설치해줘야 하는데 하둡 버전에 맞는 Java 버전은 이 사이트를 참고하면 된다. Hadoop 3.3 이상부터는 Java 11을 사용해야 한다. 참고로 Hadoop 3.0 ~ 3.2는 Java 11이 지원되지 않으며, Java 8을 설치해야 한다.    wget https://downloads.apache.org/hadoop/common/hadoop-3.2.2/hadoop-3.2.2.tar.gz  Hadoop 3.3.4# 다운로드wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz# 압축 풀기tar xvzf hadoop-3.3.4.tar.gz# 폴더 이동su..
Bigdata- 01 아직까지 크게 막힌 부분이 없고, 여러 문서를 보면서 하느라 정리를 못했다. 하둡 설치 전까지 벌어진 일을 정리할 시간이 필요해 정리한다. 이 보스팅을 그대로 따라가면 복수의 라즈베리파이를 이용한 클러스터 구성과 Hadoop 하둡 설치, Spark 설치까지 문제없이 따라할 수 있도록 아주 친절하고 상세히 작성했다. 이게 1편이고 포스팅이 길어지면 작성하면서 나눌 생각이다. 계획에 Plan B가 있으면 실제fh 플랜 A를 달성할 확률은 크게 낮아진다. 계획을 세우지 말라는 이야기가 아니라 최선을 다하고 순간에는 흐름을 따라 대처하는 능력이 필요하다는 말이다. 플랜 A가 전부인 것처럼 행동한다. 이거 그대로 한다. 순서대로 하면 잘된다. 방화벽까지....  ifconfig 명령이 먹지 않으니 다음으로 설치 ..