메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


1. mysql을 설치/설정한다.(hive-site.xml)

 : hive.metastore.lcoal은 설정하지 않아도됨

 

-------------------------------------------------hive-site.xml의 일부--------------------------------------------------------

<property>
  <name>hive.metastore.uris</name>
  <value>thrift://192.168.8.5:9083</value>
  <description>Thrift uri for the remote metastore. Used by metastore client to connect to remote metastore.</description>
</property>
<property>
  <name>hive.metastore.local</name>
  <value>false</value>
</property>
<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://localhost:3306/metastore_db</value>
  <description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
  <name>hive.metastore.warehouse.dir</name>
  <value>/user/hadoop/warehouse</value>
</property>
<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC metastore</description>
</property>
 
2. Hive metastore interface를 기동해준다.
bin/hive --service metastore &
 
3. 9083포트 확인
netstat -an | grep 9083
 
* hive metastore interface기동하지 않고 oozie에서 hive job을 돌리면...
아래와 같은 오류가 발생하며 job이 kill된다.

================================================================= >>> Invoking Hive command line now >>> Hadoop Job IDs executed by Hive: Intercepting System.exit(40000) <<< Invocation of Main class completed <<< Failing Oozie Launcher, Main class [org.apache.oozie.action.hadoop.HiveMain], exit code [40000] Oozie Launcher failed, finishing Hadoop job gracefully Oozie Launcher ends -- End of task: attempt_201405271904_0020_m_000000_0 --




stderr logs

log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.NativeCodeLoader). log4j:WARN Please initialize the log4j system properly. Logging initialized using configuration in jar:file:/tmp/mapr-hadoop/mapred/local/taskTracker/distcache/5455234734278781531_309545739_993904106/maprfs/mapr/my.cluster.com/lib/hive/hive-common-0.12-mapr-1401-140130.jar!/hive-log4j.properties FAILED: SemanticException Unable to fetch table ht_dm_101010 Log file: /tmp/mapr-hadoop/mapred/local/taskTracker/mapr/jobcache/job_201405271904_0020/attempt_201405271904_0020_m_000000_0/work/hive-oozie-job_201405271904_0020.log not present. Therefore no Hadoop jobids found Intercepting System.exit(40000) Failing Oozie Launcher, Main class [org.apache.oozie.action.hadoop.HiveMain], exit code [40000] -- End of task: attempt_201405271904_0020_m_000000_0 --

번호 제목 날짜 조회 수
81 uEnv.txt위치및 내용 2014.07.09 708
80 banana pi(lubuntu)에서 한글 설정및 한글깨짐 문제 해결 2014.07.06 3375
79 access=WRITE, inode="staging":ubuntu:supergroup:rwxr-xr-x 오류 2014.07.05 1791
78 org.apache.hadoop.security.AccessControlException: Permission denied: user=hadoop, access=WRITE, inode="":root:supergroup:rwxr-xr-x 오류 처리방법 2014.07.05 2927
77 banana pi에(lubuntu)에 hadoop설치하고 테스트하기 - 성공 file 2014.07.05 2818
76 2개 data를 join하고 마지막으로 code정보를 join하여 결과를 얻는 mr 프로그램 2014.06.30 466
75 jsoup 사용 예제 2014.06.06 1626
74 Cannot create /var/run/oozie/oozie.pid: Directory nonexistent오류 2014.06.03 536
73 oozie job 구동시 JA009: User: hadoop is not allowed to impersonate hadoop 오류나는 경우 2014.06.02 935
72 원보드pc인 bananapi를 이용하여 hadoop 클러스터 구성하기(준비물) file 2014.05.29 3930
71 의사분산모드에 hadoop설치및 ecosystem 환경 정리 2014.05.29 3215
70 hadoop및 ecosystem에서 사용되는 명령문 정리 2014.05.28 3653
» hive job실행시 meta정보를 원격의 mysql에 저장하는 경우 설정방법 2014.05.28 1161
68 oozie의 meta정보를 mysql에서 관리하기 2014.05.26 1596
67 hive query에서 mapreduce돌리지 않고 select하는 방법 2014.05.23 896
66 hiverserver2기동시 connection refused가 발생하는 경우 조치방법 2014.05.22 1558
65 import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by "x01"와 같이 지정해야함 2014.05.20 4344
64 hive에서 insert overwrite directory.. 로 하면 default column구분자는 'SOH'혹은 't'가 됨 2014.05.20 1120
63 source의 type을 spooldir로 하는 경우 해당 경로에 파일이 들어오면 파일단위로 전송함 2014.05.20 829
62 특정파일이 생성되어야 action이 실행되는 oozie job만들기(coordinator.xml) 2014.05.20 1078
위로