메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


hiveserver2실행시 /tmp/root/hive.log를 보면 아래와 같은 오류가 발생하는데 다음과 같이 수정한다.

가. hive-site.xml의 다음 항목값을 수정한다.
<name>hive.exec.scratchdir</name>
  <value>/tmp/hive-${user.name}</value>

<name>hive.exec.local.scratchdir</name>
 <value>/tmp/${user.name}</value>

<name>hive.downloaded.resources.dir</name>
 <value>/tmp/${user.name}_resources</value>

<name>hive.scratch.dir.permission</name>
 <value>733</value>

나. bin폴더 아래에서 metastore 서비스와 hiveserver2 데몬을 다시 기동한다.
./hive --service metastore &
./hiveserver2  &


------------------------------------오류내용---------------------
2016-06-03T19:58:49,938 WARN  [main]: server.HiveServer2 (HiveServer2.java:startHiveServer2(555)) - Error starting HiveServer2 on attempt 3, will retry in 60 seconds
java.lang.RuntimeException: Error applying authorization policy on hive configuration: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D
        at org.apache.hive.service.cli.CLIService.init(CLIService.java:112) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.CompositeService.init(CompositeService.java:59) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.server.HiveServer2.init(HiveServer2.java:118) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.server.HiveServer2.startHiveServer2(HiveServer2.java:514) [hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.server.HiveServer2.access$700(HiveServer2.java:85) [hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.server.HiveServer2$StartOptionExecutor.execute(HiveServer2.java:771) [hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.server.HiveServer2.main(HiveServer2.java:640) [hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) ~[?:1.8.0_66]
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) ~[?:1.8.0_66]
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) ~[?:1.8.0_66]
        at java.lang.reflect.Method.invoke(Method.java:497) ~[?:1.8.0_66]
        at org.apache.hadoop.util.RunJar.run(RunJar.java:221) [spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
        at org.apache.hadoop.util.RunJar.main(RunJar.java:136) [spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
Caused by: java.lang.IllegalArgumentException: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D
        at org.apache.hadoop.fs.Path.initialize(Path.java:206) ~[spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
        at org.apache.hadoop.fs.Path.<init>(Path.java:172) ~[spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
        at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:628) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:548) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:511) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hive.service.cli.CLIService.applyAuthorizationConfigPolicy(CLIService.java:125) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.cli.CLIService.init(CLIService.java:110) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        ... 12 more
Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D
        at java.net.URI.checkPath(URI.java:1823) ~[?:1.8.0_66]
        at java.net.URI.<init>(URI.java:745) ~[?:1.8.0_66]
        at org.apache.hadoop.fs.Path.initialize(Path.java:203) ~[spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
        at org.apache.hadoop.fs.Path.<init>(Path.java:172) ~[spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
        at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:628) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:548) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:511) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hive.service.cli.CLIService.applyAuthorizationConfigPolicy(CLIService.java:125) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.cli.CLIService.init(CLIService.java:110) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        ... 12 more
번호 제목 날짜 조회 수
244 drools에서 drl관련 로그를 기록하기 위한 클래스 파일 2016.07.21 950
243 워킹 메모리에 대한 정보를 처리하는 클래스 파일 2016.07.21 1104
242 커리 변경 이벤트를 처리하기 위한 구현클래스 2016.07.21 948
241 룰에 매칭되면 발생되는 엑티베이션 객체에 대한 작업(이전값 혹은 현재값)을 처리하는 클래스 파일 2016.07.21 466
240 실시간 쿼리 변환 모니터링(팩트내 필드값의 변경사항을 실시간으로 추적함)하는 테스트 java 프로그램 file 2016.07.21 212
239 Drools 6.0 - 비즈니스 룰 기반으로 간단한 룰 애플리케이션 만들기 file 2016.07.18 1121
238 Apache Spark와 Drools를 이용한 CEP구현 테스트 2016.07.15 1157
237 org.apache.hadoop.hbase.ClockOutOfSyncException: org.apache.hadoop.hbase.ClockOutOfSyncException 오류시 조치사항 2016.07.14 255
236 kafka로 부터 메세지를 stream으로 받아 처리하는 spark샘플소스(spark의 producer와 consumer를 sbt로 컴파일 하고 서버에서 spark-submit하는 방법) 2016.07.13 813
235 [sbt] sbt-assembly를 이용하여 실행에 필요한 모든 j라이브러리를 포함한 fat jar파일 만들기 2016.07.11 2214
234 [sbt] sbt 0.13.11 를 windows에 설치하고 scala프로그램을 compile해서 jar파일 만들기 2016.07.11 725
233 avro 사용하기(avsc 스키마 파일 컴파일 방법, consumer, producer샘플소스) 2016.07.08 1750
232 DataSetCreator실행시 "Illegal character in fragment at index"오류가 나는 경우 조치방안 2016.06.17 607
231 5건의 triple data를 이용하여 특정 작업 폴더에서 작업하는 방법/절차 2016.06.16 158
230 queryTranslator실행시 NullPointerException가 발생전에 java.lang.ArrayIndexOutOfBoundsException발생시 조치사항 2016.06.16 1005
229 S2RDF를 실행부분만 추출하여 1건의 triple data를 HDFS에 등록, sparql을 sql로 변환, sql실행하는 방법및 S2RDF소스 컴파일 방법 2016.06.15 551
228 S2RDF모듈의 실행부분만 추출하여 별도록 실행하는 방법(draft) 2016.06.14 293
227 spark-sql실행시 ERROR log: Got exception: java.lang.NumberFormatException For input string: "2000ms" 오류발생시 조치사항 2016.06.09 409
226 spark-sql실행시 Caused by: java.lang.NumberFormatException: For input string: "0s" 오류발생시 조치사항 2016.06.09 4900
225 spark-sql실행시 The specified datastore driver ("com.mysql.jdbc.Driver") was not found in the CLASSPATH오류 발생시 조치사항 2016.06.09 1649
위로