메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


아래의 소스로 테스트할때 textFile() 부분에서 java.net.URISyntaxException가 발생하는데 이때는

아래 주석부분에 있는것처럼 sparkConf.set("spark.sql.warehouse.dir", "file:///tmp/spark-warehouse"); 를 추가하여 준다.


---------테스트 소스중 일부 --------

SparkConf sparkConf=new SparkConf().setAppName("SparkJavaTest");
   sparkConf.setMaster("local[*]");
   //sparkConf.set("spark.sql.warehouse.dir", "file:///tmp/spark-warehouse");

   JavaSparkContext ctx=new JavaSparkContext(sparkConf);
   SQLContext sqlContext = new SQLContext(ctx);       

   JavaRDD<String> dataCollection=ctx.textFile("file:///C:/tmp/sparktest/a.txt");


--------------------오류내용-----------------------

Exception in thread "main" java.lang.IllegalArgumentException: java.net.URISyntaxException: Relative path in absolute URI: file:C:/dev/workspace/sdaf/sda-client/spark-warehouse
 at org.apache.hadoop.fs.Path.initialize(Path.java:205)
 at org.apache.hadoop.fs.Path.<init>(Path.java:171)
 at org.apache.spark.sql.catalyst.catalog.SessionCatalog.makeQualifiedPath(SessionCatalog.scala:114)
 at org.apache.spark.sql.catalyst.catalog.SessionCatalog.createDatabase(SessionCatalog.scala:145)
 at org.apache.spark.sql.catalyst.catalog.SessionCatalog.<init>(SessionCatalog.scala:89)
 at org.apache.spark.sql.internal.SessionState.catalog$lzycompute(SessionState.scala:95)
 at org.apache.spark.sql.internal.SessionState.catalog(SessionState.scala:95)
 at org.apache.spark.sql.internal.SessionState$$anon$1.<init>(SessionState.scala:112)
 at org.apache.spark.sql.internal.SessionState.analyzer$lzycompute(SessionState.scala:112)
 at org.apache.spark.sql.internal.SessionState.analyzer(SessionState.scala:111)
 at org.apache.spark.sql.execution.QueryExecution.assertAnalyzed(QueryExecution.scala:49)
 at org.apache.spark.sql.Dataset$.ofRows(Dataset.scala:64)
 at org.apache.spark.sql.SparkSession.createDataFrame(SparkSession.scala:542)
 at org.apache.spark.sql.SparkSession.createDataFrame(SparkSession.scala:302)
 at org.apache.spark.sql.SparkSession.createDataFrame(SparkSession.scala:315)
 at org.apache.spark.sql.SQLContext.createDataFrame(SQLContext.scala:440)
 at com.gooper.icbms.sda.kafka.onem2m.SparkJavaTest.main(SparkJavaTest.java:106)
Caused by: java.net.URISyntaxException: Relative path in absolute URI: file:C:/dev/workspace/sdaf/sda-client/spark-warehouse
 at java.net.URI.checkPath(URI.java:1823)
 at java.net.URI.<init>(URI.java:745)
 at org.apache.hadoop.fs.Path.initialize(Path.java:202)
 ... 16 more

번호 제목 날짜 조회 수
41 Scala에서 countByWindow를 이용하기(예제) 2018.03.08 990
40 Scala를 이용한 Streaming예제 2018.03.08 895
39 scala application 샘플소스(SparkSession이용) 2018.03.07 1093
38 spark-submit 실행시 "java.lang.OutOfMemoryError: Java heap space"발생시 조치사항 2018.02.01 754
37 Could not compute split, block input-0-1517397051800 not found형태의 오류가 발생시 조치방법 2018.02.01 457
36 spark stream처리할때 두개의 client프로그램이 동일한 checkpoint로 접근할때 발생하는 오류 내용 2018.01.16 1225
35 Windows7 64bit 환경에서 Apache Spark 2.2.0 설치하기 2017.07.26 946
34 Spark에서 KafkaUtils.createStream()를 이용하여 이용하여 kafka topic에 접근하여 객채로 저장된 값을 가져오고 처리하는 예제 소스 2017.04.26 459
33 Spark에서 Serializable관련 오류및 조치사항 2017.04.21 5107
32 Caused by: java.lang.ClassNotFoundException: org.apache.spark.Logging 발생시 조치사항 2017.04.19 851
31 streaming작업시 입력된 값에 대한 사본을 만들게 되는데 이것이 실패했을때 발생하는 경고메세지 2017.04.03 824
30 JavaStreamingContext를 이용하여 스트림으로 들어오는 문자열 카운트 소스 2017.03.30 287
29 spark 2.0.0의 api를 이용하는 예제 프로그램 2017.03.15 349
28 It is indirectly referenced from required .class files 오류 발생시 조치방법 2017.03.09 873
27 spark2.0.0에서 hive 2.0.1 table을 읽어 출력하는 예제 소스(HiveContext, SparkSession, SQLContext) 2017.03.09 365
26 spark에서 hive table을 읽어 출력하는 예제 소스 2017.03.09 661
25 spark에서 hive table을 읽어 출력하는 예제 소스 2017.03.09 871
» spark 2.0.0를 windows에서 실행시 로컬 파일을 읽을때 발생하는 오류 해결 방법 2017.01.12 568
23 spark notebook 0.7.0설치및 설정 2016.11.14 753
22 참고할만한 spark예제를 설명하는 사이트 2016.11.11 576
위로