메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


1. jdbc:impala://xxx.xxx.xxx.xxx:21050;AuthMech=0

java.sql.SQLException: [Cloudera][ImpalaJDBCDriver](500605) Error occured while opening a session with the server. No Additional detail from the server regarding this error is available. Please ensure that the driver configuration is compatible with the server configuration. This type of error can also occur when the server is too busy to handle the request. Please try again later.

   at. com.cloudera.impala.hivecommon.api.HS2Client.openSession(Unknown Source)

   at. com.cloudera.impala.hivecommon.api.HS2Client.<init>(Unknown Source)

   at. com.cloudera.impala.hivecommon.api.HiveServer2ClientFactory.createClient(Unknown Source)

   .....


2. jdbc:impala://xxx.xxx.xxx.xxx:21050;AuthMech=3;UID=test_user;PWD=test_password;

java.sql.SQLException: [Cloudera][ImpalaJDBCDriver](500164) Error initialized or created transport for authentication: Peer indicated failure: Unspported mechanism type PLAIN.

   at.com.cloudera.impala.hivecommon.api.HiveServer2ClientFactory.createTransport((Unknown Source)

   at.com.cloudera.impala.hivecommon.api.HiveServer2ClientFactory.createClient((Unknown Source)

   at.com.cloudera.impala.hivecommon.core.HiveJDBCCommonConnection.establishConnection((Unknown Source)

  ......


3. jdbc:impala://xxx.xxx.xxx.xxx:21050;AuthMech=1;krbRealm=GOOPER.COM;krbServiceName=impala;KrbHostFQDN=ldbserver.gooper.com

  는 kinit한 OS user로 인증이된다.

  Kerberos client 설치를 하지 못하는 경우 JDBC를 통해서 들어오는 사용자에 대한 인증은 LDAP를 이용하도록 하기 위해서 CM의 구성정보의 명령줄 인수 고급 구성 스니펫(안전 밸브)에 아래와 같이 설정한다.

--enable_ldap_auth=true

--ldap_uri=ldap://xxx.xxx.xxx.xxx

--ldap_domain=xxxxxxxxxxxxxxx

--ldap_passwords_in_clear_ok=true


번호 제목 날짜 조회 수
321 mysql sqoop작업을 위해서 mysql-connector-java.jar을 추가하는 경우 확실하게 인식시키는 방법 2020.05.11 823
320 W/F수행후 Logs not available for 1. Aggregation may not to complete. 표시되며 로그내용이 보이지 않은 경우 2020.05.08 2403
319 A Cluster의 HDFS 디렉토리및 파일을 사용자및 권한 유지 하여 다운 받아서 B Cluster에 넣기 2020.05.06 992
318 impala external 테이블 생성시 컬럼과 라인 구분자를 지정하여 테이블 생성하는 예시 2020.02.20 988
» [Kerberos]Kerberos상태의 클러스터에 JDBC로 접근할때 케이스별 오류내용 2020.02.14 1252
316 cloudera서비스 중지및 기동순서 2020.02.14 821
315 impala테이블 쿼리시 max_row_size 관련 오류가 발생할때 조치사항 2020.02.12 837
314 hue.axes_accessattempt테이블 데이터 샘플 2020.02.10 638
313 hue.desktop_document2의 type의 종류 2020.02.10 1098
312 hue db에서 사용자가 가지는 정보 확인 2020.02.10 2117
311 Cloudera의 CMS각 컴포넌트의 역할 2020.02.10 917
310 Namenode Metadata백업하는 방법 2020.02.10 945
309 cloudera의 hue에서 사용자가 사용한 쿼리 목록 2020.02.07 874
308 hive metadata(hive, impala, kudu 정보가 있음) 테이블에서 db, table, owner, location를 조회하는 쿼리 2020.02.07 1068
307 oozie WF에서 참고할만한 내용 2019.07.18 353
306 기준일자 이전의 hdfs 데이타를 지우는 shellscript 샘플 2019.06.14 1082
305 source, sink를 직접 구현하여 사용하는 예시 2019.05.30 550
304 kerberos설정된 상태의 spooldir->memory->hdfs로 저장하는 과정의 flume agent configuration구성 예시 2019.05.30 908
303 hive테이블의 물리적인 위치인 HDFS에 여러개의 데이터 파일이 존재할때 한개의 파일로 merge하여 동일한 테이블에 입력하는 방법 2019.05.23 1300
302 하둡 클러스터 전체 노드를 다시 기동하면 invalidate metadata를 수행해야 데이터가 틀어지지 않는다. 2019.05.20 774
위로