Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.
1. coordinator.xml에서 아래와 같이 <datasets></datasets>을 추가해주면 <done-flag></done-flag>사이에 지정된 파일이 <uri-template></uri-template>사이의 경로에 생성되어야만 action이 실행되도록 할 수 있다.
-----------------------------------------------------------------coordinator.xml-------------------------------------------------------------------------------------
<coordinator-app name="${scenarioNo}-s-C" frequency="${coord:minutes(1)}" start="${startTime}" end="${endTime}"
timezone="UTC" xmlns="uri:oozie:coordinator:0.1">
<controls>
<concurrency>1</concurrency>
</controls>
<datasets>
<dataset name="logs" frequency="${coord:minutes(1)}"
initial-instance="${startTime}" timezone="UTC">
<uri-template>
${nameNode}/data1/cas/output/s1/${YEAR}/${MONTH}/${DAY}
</uri-template>
<done-flag>000000_0</done-flag>
</dataset>
</datasets>
<input-events>
<data-in name="input" dataset="logs">
<instance>${startTime2}</instance>
</data-in>
</input-events>
<action>
<workflow>
<app-path>${nameNode}/data1/cas/scenario/${scenarioNo}/sqoop</app-path>
<configuration>
<property>
<name>jobTracker</name>
<value>${jobTracker}</value>
</property>
<property>
<name>nameNode</name>
<value>${nameNode}</value>
</property>
<property>
<name>queueName</name>
<value>${queueName}</value>
</property>
<property>
<name>wfInput</name>
<value>${coord:dataIn('input')}</value>
</property>
<property>
<name>iyear</name>
<!-- <value>${coord:formatTime(coord:nominalTime(),"yyyy")}</value> -->
<value>${coord:formatTime(coord:actualTime(),"yyyy")}</value>
</property>
<property>
<name>imonth</name>
<!-- <value>${coord:formatTime(coord:nominalTime(),"MM")}</value> -->
<value>${coord:formatTime(coord:actualTime(),"MM")}</value>
</property>
<property>
<name>iday</name>
<!-- <value>${coord:formatTime(coord:nominalTime(),"dd")}</value> -->
<value>${coord:formatTime(coord:actualTime(),"dd")}</value>
</property>
</configuration>
</workflow>
</action>
</coordinator-app>
댓글 0
번호 | 제목 | 날짜 | 조회 수 |
---|---|---|---|
60 | access=WRITE, inode="staging":ubuntu:supergroup:rwxr-xr-x 오류 | 2014.07.05 | 1836 |
59 | org.apache.hadoop.security.AccessControlException: Permission denied: user=hadoop, access=WRITE, inode="":root:supergroup:rwxr-xr-x 오류 처리방법 | 2014.07.05 | 2975 |
58 | banana pi에(lubuntu)에 hadoop설치하고 테스트하기 - 성공 | 2014.07.05 | 2857 |
57 | 2개 data를 join하고 마지막으로 code정보를 join하여 결과를 얻는 mr 프로그램 | 2014.06.30 | 539 |
56 | Cannot create /var/run/oozie/oozie.pid: Directory nonexistent오류 | 2014.06.03 | 958 |
55 | oozie job 구동시 JA009: User: hadoop is not allowed to impersonate hadoop 오류나는 경우 | 2014.06.02 | 1004 |
54 | hadoop및 ecosystem에서 사용되는 명령문 정리 | 2014.05.28 | 3889 |
53 | hive job실행시 meta정보를 원격의 mysql에 저장하는 경우 설정방법 | 2014.05.28 | 1237 |
52 | oozie의 meta정보를 mysql에서 관리하기 | 2014.05.26 | 1790 |
51 | hive query에서 mapreduce돌리지 않고 select하는 방법 | 2014.05.23 | 1180 |
50 | hiverserver2기동시 connection refused가 발생하는 경우 조치방법 | 2014.05.22 | 1635 |
49 | import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by " |