Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.
1. hive-json-serde-0.2.jar다운로드 한다.
-> https://code.google.com/p/hive-json-serde/downloads/list
2. hive의 lib 디렉토리로 옮긴다.
cp hive-json-serde-0.2.jar.jar /home/hadoop/hive/lib/hive-json-serde-0.2.jar
3. data준비(Test.json)
{"field1":"data1","field2":100,"field3":"more data1","field4":123.001}
{"field1":"data2","field2":200,"field3":"more data2","field4":123.002}
{"field1":"data3","field2":300,"field3":"more data3","field4":123.003}
{"field1":"data4","field2":400,"field3":"more data4","field4":123.004}
4. hive shell에서 jar파일등록
hive> add jar /home/hadoop/hive/lib/hive-json-serde-0.2.jar;
Added /home/hadoop/hive/lib/hive-json-serde-0.2.jar to class path
Added resource: /home/hadoop/hive/lib/hive-json-serde-0.2.jar
5. json serde를 사용하는 table생성
hive> create table my_table(field1 string, field2 int, field3 string, field4 double)
> row format serde 'org.apache.hadoop.hive.contrib.serde2.JsonSerde';
6. data load
hive> load data local inpath '/home/hadoop/hadoop/working/Test.json' into table my_table;
Copying data from file:/home/hadoop/hadoop/working/Test.json
Copying file: file:/home/hadoop/hadoop/working/Test.json
Loading data to table default.my_table
Table default.my_table stats: [num_partitions: 0, num_files: 1, num_rows: 0, total_size: 287, raw_data_size: 0]
7. my_table조회
hive> select * from my_table;
OK
field1 field2 field3 field4
data1 100 more data1 123.001
data2 200 more data2 123.002
data3 300 more data3 123.003
data4 400 more data4 123.004
Time taken: 0.188 seconds, Fetched: 4 row(s)
댓글 0
번호 | 제목 | 날짜 | 조회 수 |
---|---|---|---|
44 | oozie에서 share lib설정시 action type별로 구분하여 넣을것 | 2014.04.18 | 1503 |
» | json serde사용법 | 2014.04.17 | 1638 |
42 | json 값 다루기 | 2014.04.17 | 1608 |
41 | 통계자료 구할수 있는 곳 | 2014.04.16 | 2055 |
40 | column family삭제시 Column family 'delete' does not exist오류 발생하는 경우 | 2014.04.14 | 1198 |
39 | hive에서 생성된 external table에서 hbase의 table에 값 insert하기 | 2014.04.11 | 1911 |
38 | Oozie 설치, 환경설정 및 테스트 | 2014.04.08 | 1867 |
37 | 다수의 로그 에이전트로 부터 로그를 받아 각각의 파일로 저장하는 방법(interceptor및 multiplexing) | 2014.04.04 | 4223 |
36 | external partition table생성및 data확인 | 2014.04.03 | 1647 |
35 | 동일서버에서 LA와 LC동시에 기동하여 테스트 | 2014.04.01 | 1295 |
34 | 의사분산모드에서 presto설치하기 | 2014.03.31 | 3362 |
33 | Hive Query Examples from test code (2 of 2) | 2014.03.26 | 11567 |
32 | Hive Query Examples from test code (1 of 2) | 2014.03.26 | 1865 |
31 | hadoop설치시 오류 | 2013.12.18 | 2771 |
30 | centsOS vsftpd설치하기 | 2013.12.17 | 2020 |
29 | ubuntu에 hadoop 2.0.5설치하기 | 2013.12.16 | 2117 |
28 | centos 5.X에 hadoop 2.0.5 alpha 설치 | 2013.12.16 | 1880 |
27 | hbase에 필요한 jar들 | 2013.04.01 | 2265 |
26 | Hive java connection 설정 | 2013.04.01 | 2380 |
25 | Hbase Shell 명령 정리 | 2013.04.01 | 3726 |