메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


hive query에서 insert overwrite directory '${OUTPUT}'형태로 저장하면

컬럼 구분자는 default가 'x01'가 자동으로 삽입된다.

그래서 sqoop의 import 혹은 export할때 option은

--input-fields-terminated-by
"x01"
--input-lines-terminated-by
"n"
와 같이 지정해줘야 정상적으로 문자열이 분리되어 테이블 컬럼에 저장됨

번호 제목 날짜 조회 수
19 down된 broker로 메세지를 전송하려는 경우의 오류 내용및 조치사항 2016.08.12 411
18 kafkaWordCount.scala의 producer와 consumer 클래스를 이용하여 kafka를 이용한 word count 테스트 하기 2016.08.02 588
17 avro 사용하기(avsc 스키마 파일 컴파일 방법, consumer, producer샘플소스) 2016.07.08 1755
16 kafka broker기동시 brokerId가 달라서 기동에 실패하는 경우 조치방법 2016.05.02 2490
15 kafka 0.9.0.1 for scala 2.1.1 설치및 테스트 2016.05.02 1097
14 Exception in thread "main" java.lang.NoSuchMethodError: org.apache.hadoop.http.HttpConfig.getSchemePrefix()Ljava/lang/String; 해결->실패 2015.06.14 524
13 hadoop 2.6.0에 sqoop2 (1.99.5) server및 client설치 == fail 2015.06.11 2042
12 flume 1.5.2 설치및 테스트(source : file, sink : hdfs) in HA 2015.05.21 1863
11 kafka의 re-balance를 이용하여 consumer를 multi thread로 돌려서 topic의 partitions을 활용 2015.03.31 1508
10 sqoop작업시 hdfs의 개수보다 더많은 값이 중복되어 oracle에 입력되는 경우가 있음 2014.09.02 4295
9 java.util.NoSuchElementException발생시 조치 2014.08.27 1473
8 oozie 에서 sqoop action실행 에러 - 컬럼개수 차이 2014.07.17 1168
» import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by "x01"와 같이 지정해야함 2014.05.20 4595
6 source의 type을 spooldir로 하는 경우 해당 경로에 파일이 들어오면 파일단위로 전송함 2014.05.20 1272
5 sqoop에서 oracle관련 작업할때 테이블명, 사용자명, DB명은 모두 대문자로 사용할것 2014.05.15 1668
4 sqoop export/import등을 할때 driver를 못찾는 오류가 발생하면... 2014.05.15 1269
3 sqoop 1.4.4 설치및 테스트 2014.04.21 3247
2 다수의 로그 에이전트로 부터 로그를 받아 각각의 파일로 저장하는 방법(interceptor및 multiplexing) 2014.04.04 4225
1 동일서버에서 LA와 LC동시에 기동하여 테스트 2014.04.01 1298
위로