Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.
Hive 사용법 및 쿼리 샘플코드
hive 에서 사용하는 query 정리
지금까지 주로사용하는 것 위주로 정리했으며 지속적으로 업데이트 될 수 있음.
hive 환경구축 안되있는 경우는~
Hive 실행
$ $HIVE_HOME/bin/hive
Hive 종료
hive> exit;
테이블 확인
show tables;
bigmark.csv 파일의 데이터를 저장하는 테이블 "bigmark"을 정의하기 |
테이블 생성
hive> CREATE TABLE bigmark (id int, mark STRING)
> ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
> LINES TERMINATED BY 'n';
테이블에 파일삽입
hive> LOAD DATA LOCAL INPATH '/home/bigmark/localfiles/bigmark.csv'
> OVERWRITE INTO TABLE bigmark;
파티션 사용하기 |
테이블 생성
hive> CREATE TABLE big (id INT, bb STRING, ii STRING, gg STRING)
> PARTITIONED BY (ver timestamp)
> ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
> LINES TERMINATED BY ' n';
테이블에 파일삽입
hive> LOAD DATA LOCAL INPATH '/home/bigmark/localfiles/bigmark.csv'
> OVERWRITE INTO TABLE big PARTITION (ver = '2013-01-28 ');
테이블 검색 |
테이블 구조 확인
hive> DESCRIBE bigmark;
테이블 내용 확인
hive> SELECT * FROM bigmark;
LIKE 식에 의한 검색
hive> SELECT id, mark FROM bigmark
> WHERE mark LIKE '빅마크';
LIKE 식에 의한 검색(파티션이 있을 경우)
hive> SELECT bb, ii, gg FROM big
> WHERE ver='2013-01-28' and gg LIKE '빅%';
LIKE 대신 REGEXP도 가능
댓글 0
번호 | 제목 | 날짜 | 조회 수 |
---|---|---|---|
730 | jupyter, zeppelin, rstudio를 이용하여 spark cluster에 job를 실행시키기 위한 정보 | 2018.04.13 | 7701 |
729 | 하둡 분산 파일 시스템을 기반으로 색인하고 검색하기 | 2013.03.15 | 7635 |
728 | [gson]mongodb의 api를 이용하여 데이타를 가져올때 "com.google.gson.stream.MalformedJsonException: Unterminated object at line..." 오류발생시 조치사항 | 2017.12.11 | 7580 |
727 | LUBM 데이타 생성구문 | 2017.07.24 | 7513 |
726 | oracle to hive data type정리표 | 2018.08.22 | 7375 |
725 | spark-sql실행시 Caused by: java.lang.NumberFormatException: For input string: "0s" 오류발생시 조치사항 | 2016.06.09 | 7108 |
724 | [Kerberos]Kerberos상태의 클러스터에 JDBC로 접근할때 케이스별 오류내용 | 2020.02.14 | 7062 |
723 | Caused by: java.sql.SQLNonTransientConnectionException: Could not read resultset: unexpected end of stream, read 0 bytes from 4 오류시 확인/조치할 내용 | 2016.10.31 | 6936 |
722 | sqoop작업시 hdfs의 개수보다 더많은 값이 중복되어 oracle에 입력되는 경우가 있음 | 2014.09.02 | 6935 |
721 | import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by " |