Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다.
문의사항은 gooper@gooper.com로 메일을
보내주세요.
sqoop작업시 success이면서 hdfs의 개수보다 rdbms에 들어가는 자료의 개수가 더 많아(중복되면서) 지는 경우가 있는데..
이는 버그로 보이며 update key로 지정하는 컬럼의 수를 최소로 만드는 등의 오류를 유도하여 확인하는 방법이
있다.
*참고 : https://stackoverflow.com/questions/39137254/sqoop-export-inserting-duplicate-entries
댓글 0
번호 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|
39 | 동일서버에서 LA와 LC동시에 기동하여 테스트 | 총관리자 | 2014.04.01 | 936 |
38 | 다수의 로그 에이전트로 부터 로그를 받아 각각의 파일로 저장하는 방법(interceptor및 multiplexing) | 총관리자 | 2014.04.04 | 4095 |
37 | sqoop 1.4.4 설치및 테스트 | 총관리자 | 2014.04.21 | 3139 |
36 | sqoop export/import등을 할때 driver를 못찾는 오류가 발생하면... | 총관리자 | 2014.05.15 | 872 |
35 | sqoop에서 oracle관련 작업할때 테이블명, 사용자명, DB명은 모두 대문자로 사용할것 | 총관리자 | 2014.05.15 | 1536 |
34 | source의 type을 spooldir로 하는 경우 해당 경로에 파일이 들어오면 파일단위로 전송함 | 총관리자 | 2014.05.20 | 689 |
33 | import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by " |