메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


/tmp/data/work_result에 파일이 들어오면 spooldir에 의해서 파일을 읽어 memoryChannel을 통하여 HDFS의 hdfs://nameservice1:8020/DATA/work_result에 저장한다.

spool된 파일은 "agent.sources.spooldirSource.deletePolicy = immediate"설정에 의해서 OS상의 파일이 삭제된다.

그리고 HDFS에는 flume소유자로 파일이 생성된다.


---------flume.conf-----------

agent.sources = spooldirSource

agent.channels = memoryChannel

agent.sinks = hdfsSink


agent.sources.spooldirSource.type = spooldir

agent.sources.spooldirSource.spoolDir = /tmp/data/work_result

agent.sources.spooldirSource.channels = memoryChannel

agent.sources.spooldirSource.deserializer.maxLineLength = 100000000

agent.sources.spooldirSource.basenameHeader = true

agent.sources.spooldirSource.deletePolicy = immediate


agent.channels.memoryChannel.type = memory

agent.channels.memoryChannel.capacity = 1000000

agent.channels.memoryChannel.transactionCapacity = 1000



agent.sinks.hdfsSink.type = hdfs

agent.sinks.hdfsSink.channel = memoryChannel

agent.sinks.hdfsSink.hdfs.path = hdfs://nameservice1:8020/DATA/work_result

agent.sinks.hdfsSink.hdfs.fileType = DataStream

agent.sinks.hdfsSink.hdfs.rollCount = 0

agent.sinks.hdfsSink.hdfs.rollInterval= 300

agent.sinks.hdfsSink.hdfs.rollSize= 100000000

agent.sinks.hdfsSink.hdfs.batchSize = 100

agent.sinks.hdfsSink.hdfs.filePrefix = %{basename}

agent.sinks.hdfsSink.hdfs.kerberosPrincipal = flume@GOOPER.COM

agent.sinks.hdfsSink.hdfs.kerberosKeytab = /var/lib/keytab/flume.keytab

agent.sinks.hdfsSink.hdfs.proxyUser = flume

번호 제목 날짜 조회 수
361 impala테이블 쿼리시 max_row_size 관련 오류가 발생할때 조치사항 2020.02.12 464
360 spark notebook 0.7.0설치및 설정 2016.11.14 464
359 Exception in thread "main" java.lang.NoSuchMethodError: org.apache.hadoop.http.HttpConfig.getSchemePrefix()Ljava/lang/String; 해결->실패 2015.06.14 462
358 Hbase API를 이용하여 scan시 페이징을 고려하여 목록을 가져올때 사용할 수 있는 로직의 예시를 보여줌 2017.04.26 460
357 producer / consumer구현시 설정 옵션 설명 2016.10.19 460
356 DB별 JDBC 드라이버 2015.10.02 460
355 linux에서 특정 포트를 사용하는 프로세스 확인하기 2017.04.26 457
354 특정문자열이나 URI를 임의로 select 절에 지정하여 사용할때 사용하는 sparql 문장 2016.08.25 457
353 Ubuntu 16.04 LTS에서 사이트에 무료인증서를 이용하여 SSL적용 file 2017.05.23 456
352 tablet별 disk사용량 확인하는 방법 2021.08.27 455
351 Hadoop 완벽 가이드 정리된 링크 2016.04.19 454
350 cassandra cluster 문제가 있는 node제거 하기(DN상태의 노드가 있으면 cassandra cluster 전체에 문제가 발생하므로 반드시 제거할것) 2017.06.21 452
349 mybais #과 $의 차이점 2015.11.10 452
348 Mountable HDFS on CentOS 6.x(hadoop 2.7.2의 nfs기능을 이용) 2016.11.24 451
347 .gitignore파일에 지정되지 않은 파일이 ignore되는 경우 확인방법 2016.11.22 450
346 AIX 7.1에 Hadoop설치(정리중) 2016.09.12 450
345 lagom을 이용한 샘플 경매 프로그램 실행방법 2017.06.20 449
344 데이타 분석및 머신러닝에 도움이 도움이 되는 사이트 2016.11.04 448
» kerberos설정된 상태의 spooldir->memory->hdfs로 저장하는 과정의 flume agent configuration구성 예시 2019.05.30 446
342 [sap] Error: java.io.IOException: SQLException in nextKeyValue 오류 발생 2020.06.08 443
위로