Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다.
문의사항은 gooper@gooper.com로 메일을
보내주세요.
agent.sources = spoolSource
agent.channels = memoryChannel
agent.sinks = hdfsSink
agent.sources.spoolSource.type = com.gooper.flume.source.WorkingSource
agent.sinks.hdfsSink.type = com.gooper.flume.sink.WorkingSource
meta.rdb.connectionURI = jdbc:impala://node01.gooper.com:21051/product;Authmech=1;KrbRealm=GOOPER.COM;KrbHostFQDN=node01.gooper.com;KrbServiceName=impala
댓글 0
번호 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|
» | source, sink를 직접 구현하여 사용하는 예시 | 총관리자 | 2019.05.30 | 405 |
5 | kerberos설정된 상태의 spooldir->memory->hdfs로 저장하는 과정의 flume agent configuration구성 예시 | 총관리자 | 2019.05.30 | 176 |
4 | flume 1.5.2 설치및 테스트(source : file, sink : hdfs) in HA | 총관리자 | 2015.05.21 | 1423 |
3 | source의 type을 spooldir로 하는 경우 해당 경로에 파일이 들어오면 파일단위로 전송함 | 총관리자 | 2014.05.20 | 688 |
2 | 다수의 로그 에이전트로 부터 로그를 받아 각각의 파일로 저장하는 방법(interceptor및 multiplexing) | 총관리자 | 2014.04.04 | 4093 |
1 | 동일서버에서 LA와 LC동시에 기동하여 테스트 | 총관리자 | 2014.04.01 | 932 |