메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


oozie의 sqoop action으로 import혹은 export수행시 발생한 오류는 oozie의 job browser에서 자세한 내용을 확인할 수 없다. 

이류는 oozie sqoop action으로 작업시 최초에 Launcher를 수행하기 위한 YARN application을 수행하며 이 Launcher에서 

실제 map/reduce작업을 위한 YARN application을 수행하는 구조이기 때문에 

M/R작업에 사용된 application_id를 확인하여 거기서 실행된 task의 log를 확인해야 정확안 오류 내용을 확인할 수 있다. 

이때 M/R용 application_id를 확인하는 방법은 다음과 같다.

 

oozie launcher에 application의 Logs->stdout에서 Submitted application 부분에 명시된 application_id를 확인하고 이것을 이용하여

ResourceManager WebUI나 HistoryServer WebUI에서 application혹은 job의 로그를 확인한다. 

 

* oozie launcher(application_1705745455734_635833) 의 stdout에 보여지는 log의 일부

.....

16:09:47.515 [main] INFO  org.apache.hadoop.yarn.client.api.impl.YarnClientImpl - Submitted application application_1705745455734_635836

16:09:47.555 [main] INFO  org.apache.hadoop.mapreduce.Job - The url to track the job: http://bdapnamp01.bdp.gooper.com:8088/proxy/application_1705745455734_635836/

16:09:47.555 [main] INFO  org.apache.hadoop.mapreduce.Job - Running job: job_1705745455734_635836

16:09:54.620 [main] INFO  org.apache.hadoop.mapreduce.Job - Job job_1705745455734_635836 running in uber mode : false

16:09:54.621 [main] INFO  org.apache.hadoop.mapreduce.Job -  map 0% reduce 0%

16:10:03.665 [main] INFO  org.apache.hadoop.mapreduce.Job -  map 8% reduce 0%

16:10:04.668 [main] INFO  org.apache.hadoop.mapreduce.Job -  map 100% reduce 0%

16:10:04.673 [main] INFO  org.apache.hadoop.mapreduce.Job - Job job_1705745455734_635836 failed with state FAILED due to: Task failed task_1705745455734_635836_m_000001

Job failed as tasks failed. failedMaps:1 failedReduces:0 killedMaps:0 killedReduces: 0

...

 

번호 제목 날짜 조회 수
» [CDP7.1.7] oozie sqoop action으로 import혹은 export수행시 발생한 오류에 대한 자세한 로그 확인 하는 방법 2024.04.19 209
38 Oracle 12c DB의 LOB타입 컬럼이 있는 테이블을 import할 때 주의 할 사항 2022.09.14 1101
37 oracle 접속 방식에 따른 --connect 지정 방법 2022.02.11 509
36 Oracle NLOB type의 데이터를 import하는 경우 No Java type for SQL type 2011 for column rst와 같은 오류 발생시 조치사항 2022.01.14 337
35 oracle 12에 sqoop해서 데이터 import하기 (console에서 sqoop import하는 방법) 2021.12.31 1001
34 [sap] Error: java.io.IOException: SQLException in nextKeyValue 오류 발생 2020.06.08 1304
33 [sqoop] mapper를 2이상으로 설정하기 위한 split-by컬럼을 찾을때 유용하게 활용할 수 있는 쿼리 2020.05.13 1122
32 source, sink를 직접 구현하여 사용하는 예시 2019.05.30 1432
31 kerberos설정된 상태의 spooldir->memory->hdfs로 저장하는 과정의 flume agent configuration구성 예시 2019.05.30 994
30 kafka에서 메세지 중복 consume이 발생할 수 있는 상황 2018.10.23 974
29 컬럼및 라인의 구분자를 지정하여 sqoop으로 데이타를 가져오고 hive테이블을 생성하는 명령문 2018.08.03 1147
28 sqoop으로 mariadb에 접근해서 hive 테이블로 자동으로 생성하기 2018.08.03 1340
27 Kafka의 API중 Consumer.createJavaConsumerConnector()를 이용하고 다수의 thread를 생성하여 Kafka broker의 topic에 접근하여 데이타를 가져오고 처리하는 예제 소스 2017.04.26 503
26 kafka-manager 1.3.3.4 설정및 실행하기 2017.03.20 2363
25 Kafka Offset Monitor로 kafka 상태 모니터링 하기 file 2016.11.08 1540
24 Flume과 Kafka를 사용한 초당 100만개 로그 수집 테스트 file 2016.10.31 1422
23 운영중인 상태에서 kafka topic삭제하고 재생성하여 처리되지 않은 메세지 모두 삭제하기 2016.10.24 1245
22 producer / consumer구현시 설정 옵션 설명 2016.10.19 777
21 No broker partitions consumed by consumer thread오류 발생시 확인/조치할 사항 2016.09.02 1020
20 kafka 0.9.0.1버젼의 producer와 kafka버젼이 0.10.0.1인 consumer가 서로 대화하는 모습 2016.08.18 529
위로