메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


DataSetCreator관련 job돌리면 "Illegal character in fragment at index.."라는 오류가 발생하며

작업이 실해하는 경우가 있는데 이는 HDFS에 만들려는 인자에 '/'가 포함되어 있어서 문제가 발생하는 경우이다.


Helper.scala의 createDirInHDFS() 함수의 hdfs dfs -mkdir 명령에 이어서 -p옵션을 추가해주고 컴파일해서 실행한다.

그리고 URI자체에 영문과 숫자 '/', '.'만 포함하고 '<', '>', '#', '//', ':', ')', '(', ',', '&', '^'등이 들어가지 않도록 특정문자로 치환해준다.



---------------------------오류내용------------------------

Showing 4096 bytes. Click here for full log

st4/ExtVP/SO/_L_http__//data.nasa.gov/qudt/owl/qudt#conversionOffset_B_/_L_http__//data.nasa.gov/qudt/owl/qudt#systemPrefixUnit_B_.parquet
	at java.net.URI$Parser.fail(URI.java:2848)
	at java.net.URI$Parser.checkChars(URI.java:3021)
	at java.net.URI$Parser.parse(URI.java:3067)
	at java.net.URI.<init>(URI.java:588)
	at java.net.URI.create(URI.java:850)
	... 31 more
16/06/17 13:51:12 INFO yarn.ApplicationMaster: Final app status: FAILED, exitCode: 15, (reason: User class threw exception: Illegal character in fragment at index 112: test4/ExtVP/SO/_L_http__//data.nasa.gov/qudt/owl/qudt#conversionOffset_B_/_L_http__//data.nasa.gov/qudt/owl/qudt#systemPrefixUnit_B_.parquet)
16/06/17 13:51:12 INFO yarn.ApplicationMaster: Invoking sc stop from shutdown hook
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/metrics/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/stage/kill,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/static,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/executors/threadDump/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/executors/threadDump,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/executors/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/executors,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/environment/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/environment,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/storage/rdd/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/storage/rdd,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/storage/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/storage,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/pool/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/pool,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/stage/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/stage,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/jobs/job/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/jobs/job,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/jobs/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/jobs,null}
16/06/17 13:51:12 INFO ui.SparkUI: Stopped Spark web UI at http://gsda3:37016
16/06/17 13:51:12 INFO scheduler.DAGScheduler: Stopping DAGScheduler
16/06/17 13:51:12 INFO cluster.YarnClusterSchedulerBackend: Shutting down all executors
16/06/17 13:51:12 INFO cluster.YarnClusterSchedulerBackend: Asking each executor to shut down
16/06/17 13:51:12 INFO scheduler.OutputCommitCoordinator$OutputCommitCoordinatorActor: OutputCommitCoordinator stopped!
16/06/17 13:51:12 INFO spark.MapOutputTrackerMasterActor: MapOutputTrackerActor stopped!
16/06/17 13:51:12 INFO storage.MemoryStore: MemoryStore cleared
16/06/17 13:51:12 INFO storage.BlockManager: BlockManager stopped
16/06/17 13:51:12 INFO storage.BlockManagerMaster: BlockManagerMaster stopped
16/06/17 13:51:12 INFO spark.SparkContext: Successfully stopped SparkContext
번호 제목 날짜 조회 수
78 5건의 triple data를 이용하여 특정 작업 폴더에서 작업하는 방법/절차 2016.06.16 123
77 S2RDF 테스트(벤치마크 테스트를 기준으로 python, scala소스가 만들어져서 기능은 파악되지 못함) [2] file 2016.05.27 135
76 DataSetCreator.py 실행시 파일을 찾을 수 없는 오류 2016.05.27 141
75 9대가 hbase cluster로 구성된 서버에서 테스트 data를 halyard에 적재하고 테스트 하는 방법및 절차 2017.07.21 142
74 실시간 쿼리 변환 모니터링(팩트내 필드값의 변경사항을 실시간으로 추적함)하는 테스트 java 프로그램 file 2016.07.21 148
73 ServerInfo객체파일 2016.07.21 150
72 전체 컨택스트 내용 file 2017.12.19 158
71 시맨틱 관련 논문 모음 사이트 2017.06.13 161
70 jena의 data폴더를 hadoop nfs를 이용하여 HDFS상의 폴더에 마운트 시키고 fuseki를 통하여 inert를 시도했을때 transaction 오류 발생 2016.12.02 174
69 halyard 1.3의 rdf4j-server.war와 rdf4j-workbench.war를 tomcat deploy후 조회시 java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/Cell발생시 조치사항 2017.07.05 176
68 https://github.com/Merck/Halyard프로젝트 컴파일및 배포/테스트 2017.01.24 185
67 슬라이딩 윈도우 예제 2016.07.28 189
66 TopBraid Composer에서 SPIN 사용법 file 2016.02.25 191
65 oneM2M Specification(Draft Release 3, 2, 1), Draft Technical Reports 2017.10.25 202
64 [Elephas] Jena Elephas를 이용하여 Spark에서 rdfTriples의 RDD를 만들고 RDD관련 작업하는 샘플소스 2016.08.10 203
63 fuseki의 endpoint를 이용한 insert, delete하는 sparql예시 2018.02.14 207
62 select와 group by결과 값이 없는경우의 리턴 값이 다름 file 2016.02.05 209
61 S2RDF모듈의 실행부분만 추출하여 별도록 실행하는 방법(draft) 2016.06.14 212
60 LUBM 개수별 hadoop HDFS data사이즈 정리 2017.04.06 214
59 --master yarn 옵션으로 spark client프로그램 실행할때 메모리 부족 오류발생시 조치방법 2016.05.27 218
위로