메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


1. 소스를 다운로드 받는다.

https://github.com/yahoo/kafka-manager/releases


2. 서버에 올리고(kafka-manager-1.3.3.4-src) 압축을 푼다.

kafka-manager>mkdir kafka-manager-1.3.3.4-src

kafka-manager-1.3.3.4-src>unzip kafka-manager-1.3.3.4.zip


3. 설정정보를 수정한다.

  가. vi conf/application.conf

    kafka-manager.zkhosts값을 현재 설정된 zookeeper정보로 변경한다(예, kafka-manager.zkhosts="sda1:2181,sda2:2181,sda3:2181")


4. sbt를 이용한 빌드 수행

  ./sbt clean dist

....

[info] Your package is ready in /home/gooper/kafka-manager/kafka-manager-1.3.3.4/target/universal/kafka-manager-1.3.3.4.zip
[info]
[success] Total time: 412 s, completed 2017. 3. 20 오후 12:25:21
-bash-4.1$


5. sbt를 이용하여 생성된 zip file을 특정폴더(예, /home/gooper/kafka-manager/kafka-manager-1.3.3.4)에 복사/압축을 푼다.  

  가. cp /home/gooper/kafka-manager/kafka-manager-1.3.3.4-src/target/universal/kafka-manager-1.3.3.4.zip /home/gooper/kafka-manager/kafka-manager-1.3.3.4

  나. cd /home/gooper/kafka-manager/kafka-manager-1.3.3.4

  다. unzip kafka-manager-1.3.3.4.zip


6. unzip된 폴더 밑의 bin 폴더 밑에 있는 kafka-manager를 실행한다.(default webport로 9000포트를 사용하는데 hadoop에서 사용하는 포트이므로 아래와 같이 변경하여 사용한다.)

  nohup bin/kafka-manager -Dconfig.file=./conf/application.conf -Dhttp.port=8889 & 혹은

  nohup bin/kafka-manager -Dhttp.port=1256 & 로 입력하여 kafka-manager데몬을 띄운다.


7. 브라우져에서 sda1:8889를 입력한다.


8. Cluster->Add Cluster를 선택하여 필요한 설정을 한다.

  가. Cluster Name : ICBMS_kafka_manager

  나. Cluster Zookeepr Hosts : sda1:2181,sda2:2181,sda3:2181

  다. Kafka Version(예, 0.9.0.1)을 선택한다.(설치된 kafka버젼을 선택함)

  라. Enable JMX Polling (Set JMX_PORT env variable before starting kafka server를 선택한다.

  마. JMX Auth Username, JMX Auth Password를 입력한다.(필요시)

  바. 체크옵션중 JMX with SSL을 제외하고 나머지는 선택하고 'save'를 누른다.
    Poll consumer information (Not recommended for large # of consumers)
    Filter out inactive consumers
    Enable Logkafka  
    Enable Active OffsetCache (Not recommended for large # of consumers)
    Display Broker and Topic Size (only works after applying this patch)


9. Lag확인

Topic메뉴를 클릭하고 하단 좌측에 보이는 Topic명을 클릭한다. 다음 화면에서 우측의 Consumers consuming from this topic 목록중에서 모니터링이 필요한 Consumer Group명칭을 클릭한다.


* KafkaOffsetMonitor를 사용하다보면 어는 시점에 모니터링 목록이 보이지 않는 문제가 있음. 이때 이 프로그램을 사용해 볼 수도 있음


10. 프로세스 확인(jps -m)

 - ProdServerStart가 있는지 확인한다.


번호 제목 날짜 조회 수
384 Kafka의 API중 Consumer.createJavaConsumerConnector()를 이용하고 다수의 thread를 생성하여 Kafka broker의 topic에 접근하여 데이타를 가져오고 처리하는 예제 소스 2017.04.26 504
383 Spark에서 KafkaUtils.createStream()를 이용하여 이용하여 kafka topic에 접근하여 객채로 저장된 값을 가져오고 처리하는 예제 소스 2017.04.26 481
382 Hbase API를 이용하여 scan시 페이징을 고려하여 목록을 가져올때 사용할 수 있는 로직의 예시를 보여줌 2017.04.26 979
381 linux에서 특정 포트를 사용하는 프로세스 확인하기 2017.04.26 731
380 Spark에서 Serializable관련 오류및 조치사항 2017.04.21 5289
379 Caused by: java.lang.ClassNotFoundException: org.apache.spark.Logging 발생시 조치사항 2017.04.19 940
378 [Jsoup]특정페이지를 jsoup을 이용하여 파싱하는 샘플소스 2017.04.18 944
377 [jsoup]Jsoup Tutorial 2017.04.11 408
376 update를 많이 하면 heap memory가 많이 소진되고 최종적으로 OOM가 발생하는데 이에 대한 설명 2017.04.10 990
375 LUBM 개수별 hadoop HDFS data사이즈 정리 2017.04.06 286
374 Container killed by the ApplicationMaster. Container killed on request. Exit code is 143 Container exited with a non-zero exit code 143 TaskAttempt killed because it ran on unusable node 오류시 조치방법 2017.04.06 1081
373 protege 설명및 사용법 file 2017.04.04 3445
372 streaming작업시 입력된 값에 대한 사본을 만들게 되는데 이것이 실패했을때 발생하는 경고메세지 2017.04.03 851
371 [메모리 덤프파일 분석] 2017.03.31 307
370 JavaStreamingContext를 이용하여 스트림으로 들어오는 문자열 카운트 소스 2017.03.30 290
369 nc -l 7777 : 7777포트에서 입력을 받는다. 2017.03.23 648
» kafka-manager 1.3.3.4 설정및 실행하기 2017.03.20 2364
367 spark 2.0.0의 api를 이용하는 예제 프로그램 2017.03.15 382
366 It is indirectly referenced from required .class files 오류 발생시 조치방법 2017.03.09 967
365 spark2.0.0에서 hive 2.0.1 table을 읽어 출력하는 예제 소스(HiveContext, SparkSession, SQLContext) 2017.03.09 384
위로