Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.
실행 : python DataSetCreator.py -i /home/hadoop/QueryTranslator/S2RDF_QueryTranslator/data/sparql.in -s 0.25
===>
실행했을때 아래의 오류가 발생하는데 이는 python의 버젼이 3.1이상이 되어야 지원되는 python기능이 있어서
발생하는 문제이므로 python의 버변을 3.1이상으로 설치하고 python3으로 실행하면 해결됨
* 설치는 https://www.gooper.com/ss/index.php?mid=bigdata&category=2812&document_srl=3130 참조할것
----------------------오류내용-----------------------------
Input RDF file ->" /home/hadoop/QueryTranslator/S2RDF_QueryTranslator/data/sparql.in
Traceback (most recent call last):
File "DataSetCreator.py", line 126, in <module>
main(sys.argv[1:])
File "DataSetCreator.py", line 123, in main
generateDatsets()
File "DataSetCreator.py", line 80, in generateDatsets
wholeRunTime = submitSparkCommand("VP")
File "DataSetCreator.py", line 61, in submitSparkCommand
+ " > ./DataBaseCreator.err")
ValueError: zero length field name in format
댓글 0
번호 | 제목 | 날짜 | 조회 수 |
---|---|---|---|
10 | S2RDF를 이용한 다른 버젼의 github링크 | 2016.12.02 | 524 |
9 | DataSetCreator실행시 "Illegal character in fragment at index"오류가 나는 경우 조치방안 | 2016.06.17 | 603 |
8 | 5건의 triple data를 이용하여 특정 작업 폴더에서 작업하는 방법/절차 | 2016.06.16 | 156 |
7 | queryTranslator실행시 NullPointerException가 발생전에 java.lang.ArrayIndexOutOfBoundsException발생시 조치사항 | 2016.06.16 | 939 |
6 | S2RDF를 실행부분만 추출하여 1건의 triple data를 HDFS에 등록, sparql을 sql로 변환, sql실행하는 방법및 S2RDF소스 컴파일 방법 | 2016.06.15 | 551 |
5 | S2RDF모듈의 실행부분만 추출하여 별도록 실행하는 방법(draft) | 2016.06.14 | 292 |
4 | --master yarn 옵션으로 spark client프로그램 실행할때 메모리 부족 오류발생시 조치방법 | 2016.05.27 | 306 |
3 | DataSetCreator.py 실행시 파일을 찾을 수 없는 오류 | 2016.05.27 | 192 |
» | python실행시 ValueError: zero length field name in format오류 해결방법 | 2016.05.27 | 958 |
1 | S2RDF 테스트(벤치마크 테스트를 기준으로 python, scala소스가 만들어져서 기능은 파악되지 못함) [1] | 2016.05.27 | 206 |