메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


datanode기동시 Incompatible clusterIDs오류가 발생하는 이유는 "hadoop namenode -format"이 다시 한번 이루어지면서 
namenode는 새로운 ID를 받고 datanode는 새로운 ID를 발급받지 못하여 불일치가 발생한다.
그래서 format전에 /hadoop/dfs/datanode/VERSION파일을 지우고 format하면 해결된다.

---------------------------datanode 로그파일 내용------------------
2016-04-01 10:18:29,872 INFO org.apache.hadoop.hdfs.server.common.Storage: Lock on /hadoop/dfs/datanode/in_use.lock acquired by nodename 2642@so-db2
2016-04-01 10:18:29,876 WARN org.apache.hadoop.hdfs.server.common.Storage: java.io.IOException: Incompatible clusterIDs in /hadoop/dfs/datanode: namenode clusterID = CID-114223dd-58a8-4145-8359-990ebc169f13; datanode clusterID = CID-0a8e7038-7c96-45ab-bf73-1ad00fcbd192
2016-04-01 10:18:29,878 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to sda2/xxx.xxx.xxx.44:9000. Exiting. 
java.io.IOException: All specified directories are failed to load.
        at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:478)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1358)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1323)
        at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:317)
        at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:223)
        at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:802)
        at java.lang.Thread.run(Thread.java:745)
2016-04-01 10:18:29,878 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to sda1/xxx.xxx.xxx.43:9000. Exiting. 
java.io.IOException: Cluster IDs not matched: dn cid=CID-114223dd-58a8-4145-8359-990ebc169f13 but ns cid=CID-0a8e7038-7c96-45ab-bf73-1ad00fcbd192; bpid=BP-503361220-xxx.xxx.xxx.43-1459412244660
        at org.apache.hadoop.hdfs.server.datanode.DataNode.setClusterId(DataNode.java:717)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1316)
        at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:317)
        at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:223)
        at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:802)
        at java.lang.Thread.run(Thread.java:745)
2016-04-01 10:18:29,881 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Ending block pool service for: Block pool <registering> (Datanode Uuid unassigned) service to sda2/xxx.xxx.xxx.44:9000
2016-04-01 10:18:29,881 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Ending block pool service for: Block pool <registering> (Datanode Uuid unassigned) service to sda1/xxx.xxx.xxx.43:9000
2016-04-01 10:18:29,983 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Removed Block pool <registering> (Datanode Uuid unassigned)
2016-04-01 10:18:31,983 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Exiting Datanode
2016-04-01 10:18:31,986 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 0
2016-04-01 10:18:31,988 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down DataNode at so-db2/xxx.xxx.xxx.38
************************************************************/
번호 제목 날짜 조회 수
481 hive기동시 Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D 오류 발생시 조치사항 2016.09.25 615
480 spark client프로그램 기동시 "Error initializing SparkContext"오류 발생할때 조치사항 2016.05.27 615
479 java.util.NoSuchElementException발생시 조치 2014.08.27 615
478 외부 기기(usb, 하드)등 mount(연결)하기 2014.08.03 611
477 hive metastore db중 TBLS, TABLE_PARAMS테이블 설명 2021.10.22 610
476 Hive MetaStore Server기동시 Could not create "increment"/"table" value-generation container SEQUENCE_TABLE since autoCreate flags do not allow it. 오류발생시 조치사항 2017.05.03 606
475 Oracle RAC 구성된 DB서버에 대한 컴포넌트별 설정 방법 2022.02.12 605
474 hive 0.13.1 설치 + meta정보는 postgresql 9.3에 저장 2015.04.30 604
473 A Cluster의 HDFS 디렉토리및 파일을 사용자및 권한 유지 하여 다운 받아서 B Cluster에 넣기 2020.05.06 603
472 oracle 12에 sqoop해서 데이터 import하기 (console에서 sqoop import하는 방법) 2021.12.31 602
471 Cassandra 3.4(3.10) 설치/설정 (5대로 clustering) 2016.04.11 600
470 Mysql DB 생성 및 권한. 특정아이피, 대역에 대한 접근 허용 2017.05.04 599
469 [JSON 파싱]mongodb의 document를 GSON을 이용하여 parsing할때 ObjectId값에서 오류 발생시 조치방법 2017.01.18 599
468 python2.7.4에서 Oracle DB(11.2)를 사용하기 위한 설정(RPM을 이용하여 RHEL 7.4에 설치) 2021.11.26 598
467 [sqoop] mapper를 2이상으로 설정하기 위한 split-by컬럼을 찾을때 유용하게 활용할 수 있는 쿼리 2020.05.13 597
466 [번역] solr 검색 엔진 튜토리얼 2014.10.07 596
465 [TLS/SSL]Cloudera CDH6.3.4기준 Hue TLS설정 항목 2022.05.13 595
464 CDP에서 AD와 Kerberos를 활용하여 인증 환경을 구축하는 3가지 방법 2022.06.10 594
463 [Hue]Hue의 메타정보를 담고 있는 desktop_document테이블과 desktop_document2의 관계 2022.05.09 591
462 기준일자 이전의 hdfs 데이타를 지우는 shellscript 샘플 2019.06.14 591
위로